
KI-Videos sind überall – und inzwischen wirklich schwer von echtem Videomaterial zu unterscheiden! Die Wahrscheinlichkeit, einem KI-Fake auf den Leim zu gehen, steigt mit jedem Tag und jedem Schritt in der Entwicklung der KI-Modelle. Das Problem dabei: Viele Menschen, jünger wie älter, sind nicht in der Lage, Fake-Videos bei Youtube, Facebook und Co. zu entlarven. Wir helfen Euch jetzt dabei, Checkliste inklusive.
Videomaterial war, noch viel mehr als Fotos, jahrzehntelang zuverlässige Dokumentationen der Realität: In den 1990er Jahren wäre es mangels Rechenleistung und aus Kostengründen kaum möglich gewesen, Filmmaterial im großen Stil zu fälschen. Und obwohl digitale Special-Effects immer besser geworden sind und Hollywood regelmäßig tote Schauspieler auferstehen lässt, waren die Verfahren bislang so teuer, dass sie sich kaum für Allerwelts-Fälschungen und Betrugsversuche eigneten.
KI-Videos: Täuschend echt – aber mit vielen Fehlern
KI-Videos ändern das jetzt: Sie sind billig, schnell erstellt – und in vielen Fällen nicht mehr auf den ersten Blick als KI zu erkennen! Es gibt eine Reihe althergebrachter Tipps, die auf KI hindeuten und dabei helfen können, generierte KI-Videos sofort zu entlarven:
- Ein allgemein überfärbter, künstlicher Look: Starke Kontraste, sehr glatte Haut, Personen und Dinge wirken wie gemalt.
- Auf Details wie Finger oder Füße oder Beschriftungen sind falsch: Finger fehlen oder sind überzählig oder tauchen wie aus dem Nichts auf und verschwinden.
- Schriften im Video, besonders im Hintergrund, ergeben keinen Sinn oder sind bizarr verformt.
- Firmennamen sehen zwar authentisch aus, die Schrift im Logo ist jedoch falsch.
- Im Video geschehen in der Realität unmögliche Dinge: Jemand isst durch die Ohren, Dinge verschwinden oder tauchen wie aus dem Nichts auf, Objekte und Personen verformen sich in Windeseile bizarr.
Leider verlieren diese Tipps jedoch inzwischen ihre Relevanz: KI-Video ist so gut geworden, dass selbst Experten oft straucheln, wenn es um die Erkennung per Augenmaß geht. Das liegt zum einen daran, dass die Rechenleistung und die Qualität der Modelle gestiegen ist. Zum anderen aber vor allem daran, dass viele KI-Video-Generatoren Objektkonsistenz gelernt und Physik gepaukt haben.
Wie kann man also KI-Videos heute noch sicher erkennen? Wer auf Nummer sicher gehen will, sollte vor allen Dingen eine goldene Regel beachten:
Vertraue keinem Video, das nicht aus einer vertrauenswürdigen Quelle stammt!!!
Das Gleiche gilt leider inzwischen natürlich auch für Fotos, Musikstücke, PDF-Dokumente und eigentlich jede Form von Medium: Die KI zwingt uns inzwischen, wirklich jeden Inhalt auf seine Quelle zu überprüfen.
Was ist eine vertrauenswürdige Quelle?
Doch was ist eigentlich eine vertrauenswürdige Quelle? Die Freundin, die sonst per WhatsApp Videos der Enkel schickt und plötzlich einen skandalösen Versprecher eines Politikers? Der Sohn, der sich über eine Nachrichtensendung aufregt und das Video mitschickt? Der sonst so freundliche Arbeitskollege mit dem Hang zu politischem Aktivismus?
Leider nein: Es gibt keine vertrauenswürdigen Quellen mehr, zumindest nicht im Bekanntenkreis: Ihr müsst bei Videos immer davon ausgehen, dass die Person bereits von einem KI-Video gefoppt wurde – und es Euch deshalb zusendet. Was an vertrauenswürdigen Quellen bleibt, ist natürlich alles, was Ihr selbst aufgenommen habt.
Und natürlich klassische Qualitätsmedien. Ja, da wird der ein oder andere die Nase rümpfen, aber Presseprodukte großer Verlage oder des Öffentlich-Rechlichen Rundfunks haben üblicherweise den Vorteil, dass viele verschiedene Personen den Content prüfen, ehe er veröffentlich wird. Gleiches gilt für Kommentare. Damit ist die Chance, dass Fake-Content in Form von Videos unkommentiert ihren Weg in diese Medien findet, gegen Null. Youtube, WhatsApp oder Facebook sind hingegen das Gegenteil einer vertrauenswürdigen Quelle!
12 Möglichkeiten, um Videomaterial auf KI-Herkunft zu überprüfen
Doch wenn KI-Videos kaum noch erkennbar sind – wie erkenne ich sie trotzdem? Grundsätzlich gilt: Zieht zunächst jedes Video in Zweifel und geht immer von einer Fälschung aus! Anschließend könnt Ihr dann Hinweise auf die Authentizität des Videos sammeln und abwägen, ob Ihr ihm glauben wollt oder nicht.
- Prüft das Upload-Datum auf Plattformen wie Youtube: Wurde das Video vor Ende 2022 hochgeladen? Dann ist es höchstwahrscheinlich echt: Das Upload-Datum lässt sich aktuell nicht fälschen, vor Ende 2022 waren KI-Videos nichts weiter als bizarrer Pixelbrei und sind sofort erkennbar.
- Prüft, ob die Szene inhaltlich realistisch ist. Ein riesiges Raumschiff über Köln? Äußerst unwahrscheinlich. Jemand, der wie Superman Autos in voller Fahrt stoppt? Blödsinn. Kurzum: Zeigt das Video etwas, das wirklich existieren kann? Dann ist es vielleicht real.
- Sekunden zählen! Aktuell (Mitte 2025) ist es noch so, dass KI-Videos in der Regel nur sehr kurze konsistente Szenen von 10 bis 20 Sekunden generieren können. Das bedeutet, dass Beiträge mit KI-Unterstützung oft sehr kurz sind. Ein Kameraschwenk oder ein Interview dauert unter 20 Sekunden? Das kann einfach der Stil des Videos sein, deutet aber auf KI-Content hin.
- Auf Text im Video achten ist essentiell: KI-Modelle haben nach wie vor Schwierigkeiten mit der konsistenten Generierung von Text im Video. Es kommt zu Artefakten, sprich: Der Text in Firmen-Logos, Schildern oder Supermarkt-Angeboten im Hintergrund ist verzerrt, die Schrift oder die Worte ergeben keinen Sinn oder er ändert sich sogar im Verlauf des Videos. Findet Ihr solches Kauderwelsch im Video, ist es höchstwahrscheinlich ein KI-Video.
- Gesichter, Augen und Zähne stellt die KI oft falsch dar. Das liegt daran, dass sie zum Teil Videos aus Bildern generiert, die Zähne nicht sehen kann und deshalb inhaltliche Lücken mit "Standardzähnen" füllen muss. Etwa, wenn ein Video aus einem Foto generiert wurde.
- Bewegungsabläufe bekannter Personen sind oft nicht korrekt, wenn die KI ein Video generiert: Menschliche Bewegungen sehen untypisch aus bis hin zu einem unnatürlichen Bewegungsablauf. Gerade Menschen, die sich auf eine bestimmte Weise bewegen, schafft die KI derzeit nicht.
- Inhaltliche Inkonsistenzen wie ruckartige Bewegungen oder Objekte, die plötzlich die Form ändern. Oft werden zum Beispiel Türen plötzlich keilförmig oder Dinge im Hintergrund verändern während der Szene ihre Form, tauchen auf oder verschwinden.
- Kontinuitätsfehler und Logikfehler sind oft ein guter Hinweis: Wenn sich während des Videos die Umgebung verändert oder Personen wie aus dem Nichts auftauchen oder verschwinden, liegt höchstwahrscheinlich KI-Videomaterial vor. Ein Klassiker sind etwa Personen, die bei den derzeit beliebten Straßeninterview-KI-Videos hinter einer Person im Vordergrund verschwinden oder wie aus dem Nichts auftauchen.
- Technische Geräte sind in der Regel nicht korrekt: Wer in KI-Videos auf technische Geräte achtet, wird feststellen, dass die KI diese in der Regel nicht korrekt darstellen kann. Das können zu viele oder zu wenige Kamera-Augen auf einem Smartphone sein, falsche Markenlogos, unkorrekte Tastenbeschriftungen, Zahnräder oder Rohre, die keinen Sinn ergeben, Autos mit untypischen Rad-Anordnungen oder Markenemblemen, die es nicht gibt oder Lampen, die frei in der Luft schweben. Solche Details sind immer ein sicheres Zeichen für KI-Video.
- Der Morph-Effekt entsteht, wenn die KI versucht, zum Beispiel eine Person umzudrehen. Statt sie wie eine echte Person zu drehen, verdreht sie sich in sich selbst oder das Gesicht taucht auf einmal ohne Drehung auf der Rückseite der Person auf.
- Und es macht "Swoosh": Insbesondere bei Kamerafahrten und schnellen Bewegungen kommt es gerne zu deutlichen Unschärfen des bewegten Objekts. Hier spart die KI Rechenleistung. Ein solches Phänomen kann auch von einem schlecht codierten Video herrühren, muss also nicht zwingend KI sein. Ist das Video aber sonst hochauflösend und scharf, spricht viel für KI.
- Linien verfolgen: KI-Videogeneratoren schaffen bis heute kaum eine dauerhafte Objektkonsistenz. Prüft, ob geradelinige Objekte im Video auch wirklich geradlinig bleiben – oder ob sie im Video die Form ändern: So kann ein Gitter von jetzt auf gleich eine andere Form bekommen, Türen werden dreieckig, genommene Wege einer Person ergeben keinen logischen Sinn.
Nehmen wir dieses Video hier: Jurrassic Park im echten Leben. Das Video ist als KI markiert, insofern alles richtig gemacht. Aber es zeigt hervorragend, welche Schwächen KI-Videos derzeit haben: Ihr könnt es zum Üben hernehmen.
- Keine Szene ist länger als 10 Sekunden.
- Es gibt keine Szenen-Kontinuität: Jede Szene hat einen anderen "Drehort".
- Es gibt Logikfehler: Niemand würde einen echten T-Rex auf Besucher loslassen, noch dazu ohne jede Sicherung. Die kleinen Dinosaurier im "Streichelzoo" sind eindeutig kleine Fleischfresser und wären in der Wirklichkeit sicherlich nicht ungefährlich. Man möchte sich die Haftungsrisiken beider "Attraktionen" in echt – noch dazu in den USA – kaum vorstellen.
- Die Dinosaurier sehen in den meisten Szenen wie Gummipuppen aus. Was logisch ist: Es gibt keine Trainingsdaten, also Videos von echten Dinosauriern, da es keine echten Dinosaurier mehr gibt. Das KI-Training erfolgte also anhand von Fotos und Videos aus Themenparks, Büchern oder Hollywood-Filmen, die allesamt künstlich aussehen.
- Die Augenbewegungen der Frau am Anfang im Auto sehen auf den ersten flüchtigen Blick echt aus, sind aber extrem affektiert und unnatürlich.
- Die Tür gegen Ende des Videos hat einen dreieckigen Grundriss.
- Es gibt noch weitere Punkte – könnt Ihr sie finden?
Kurzum: Ein KI-Video, das natürlich als solches auch problemlos erkennbar ist, denn einen echten Jurassic Park mit echten Dinosauriern gibt es natürlich nicht. Das Video steht beispielhaft für das, was KI-Video inzwischen zu leisten vermag. Und sogar noch mehr, wie diese Google VEO 3-Demo zeigt, die vor allem durch Logik-Fehler glänzt:
Was tun gegen die KI-Video-Flut?
Es gibt keine Möglichkeit, KI-Videos zu blockieren oder zu unterbinden. Doch wenn das Video aus einer nicht vertrauenswürdigen Quelle stammt – und da reicht schon die WhatsApp eines Freundes – solltet Ihr es nicht einfach so glauben. Im KI-Zeitalter gilt vor allem eines, nämlich skeptisch bleiben!
Mit KI können übrigens auch vorhandene Videos mit Tonspur – etwa die Rede eines Politikers – manipuliert werden. Auch bei derart "normalem" Inhalt ist also Vorsicht angebracht, vor allem, wenn sich im Verlauf des Videos komische Formulierungen oder Forderungen häufen, die man sonst von diesem speziellen Politiker nicht hört. Das gleiche gilt natürlich auch für Prominente oder die typischen Boulevard-Inhalte.
Auch die KI kann nicht unbedingt bei der KI-Videoerkennung helfen!
Natürlich ist nicht jedes extreme Video oder jedes bizarre Politiker-Aussage KI-generiert: Es gibt natürlich auch noch wie eh und je echte Wahnsinnige oder Trottel im echten Leben, die einfach dumme Dinge machen oder sagen. Im Zweifel solltet Ihr aber inzwischen von KI-Inhalten ausgehen und versuchen, sie zu verifizieren, ehe Ihr sie weiterleitet.
Übrigens: Gegebenenfalls denkt Ihr auch daran, KI-Systeme wie ChatGPT könnten Euch zuverlässig bei der Erkennung von KI-Video helfen. Dem ist nicht so,Es sei denn, ein bestimmtes Video wurde schon mehrfach von echten Menschen als KI entlarvt, die diese Informationen dann auch im Netz geteilt haben. Daher ist es extrem unzuverlässig, eine KI nach einem KI-Video zu fragen – nutzt lieber Euren gesunden Menschenverstand!